1
Au-delà de la date limite des connaissances : pourquoi les LLM ont besoin de données externes
AI011Lesson 6
00:00

Au-delà de la date limite des connaissances

Les grands modèles linguistiques sont puissants, mais ils souffrent d'une limitation fondamentale : la Date limite des connaissances. Pour construire des systèmes d'IA fiables, nous devons combler l'écart entre les données d'apprentissage statiques et les informations dynamiques du monde réel.

1. Le problème de la date limite des connaissances (Quoi)

Les LLM sont formés sur de vastes jeux de données statiques ayant une date de fin fixe (par exemple, la limite de septembre 2021 pour GPT-4). En conséquence, ces modèles ne peuvent pas répondre aux questions portant sur des événements récents, des mises à jour logicielles ou des données privées créées après leur période d'apprentissage.

2. Les hallucinations face à la réalité (Pourquoi)

Lorsqu'on leur pose des questions sur des données inconnues ou postérieures à la date limite, les modèles ont souvent tendance à halluciner—à inventer des faits plausibles mais entièrement faux afin de satisfaire la requête. La solution est le Ancrage : fournir un contexte vérifiable en temps réel provenant d'une base de connaissances externe avant que le modèle ne génère une réponse.

3. RAG vs. Réajustement fin (Comment)

  • Réajustement fin : Mettre à jour les poids internes du modèle est coûteux en calcul, lent, et donne lieu à des connaissances statiques qui deviennent rapidement obsolètes.
  • RAG (Génération augmentée par récupération) : Très économique. Il récupère automatiquement les informations pertinentes et les intègre dans la requête, garantissant que les données sont à jour et permettant des mises à jour faciles de la base de connaissances sans reformation.
Le fossé des données privées
Les LLM n'ont pas accès aux manuels internes de l'entreprise, aux rapports financiers ou aux documents confidentiels, sauf s'ils sont explicitement intégrés via une chaîne de récupération.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."